Lower Bounds on the Generalization Error of Nonlinear Learning Models

نویسندگان

چکیده

We study in this paper lower bounds for the generalization error of models derived from multi-layer neural networks, regime where size layers is commensurate with number samples training data. derive explicit general biased estimators, cases two-layered networks. For linear activation function, bound asymptotically tight. In nonlinear case, we provide a comparison our an empirical stochastic gradient descent algorithm. addition, unbiased which show that latter have unacceptable performance truly The analysis uses elements theory large random matrices.

برای دانلود باید عضویت طلایی داشته باشید

برای دانلود متن کامل این مقاله و بیش از 32 میلیون مقاله دیگر ابتدا ثبت نام کنید

اگر عضو سایت هستید لطفا وارد حساب کاربری خود شوید

منابع مشابه

Generalization error bounds for stationary autoregressive models

We derive generalization error bounds for stationary univariate autoregressive (AR) models. We show that imposing stationarity is enough to control the Gaussian complexity without further regularization. This lets us use structural risk minimization for model selection. We demonstrate our methods by predicting interest rate movements.

متن کامل

the effects of error correction methods on pronunciation accuracy

هدف از انجام این تحقیق مشخص کردن موثرترین متد اصلاح خطا بر روی دقت آهنگ و تاکید تلفظ کلمه در زبان انگلیسی بود. این تحقیق با پیاده کردن چهار متد ارائه اصلاح خطا در چهار گروه، سه گروه آزمایشی و یک گروه تحت کنترل، انجام شد که گروه های فوق الذکر شامل دانشجویان سطح بالای متوسط کتاب اول passages بودند. گروه اول شامل 15، دوم 14، سوم 15 و آخرین 16 دانشجو بودند. دوره مربوطه به مدت 10 هفته ادامه یافت و د...

15 صفحه اول

the effect of explicit versus implicit error correction on writing of iranian intermediate efl learners

در این پایان نامه دو روش اصلاح اشتباهات نوشتاری زبان آموزان بزرگسال ایرانی در سطح متوسط مورد بررسی قرار می گیرد. در روش اول (explicit) اشتباهات بطور مستقیم و در روش دوم (implicit) اشتباهات بصورت غیر مستقیم اصلاح می شود. برای انجام این تحقیق از دو گروه 15 نفری استفاده شده است. به زبان آموزان در هر جلسه یک موضوع انشا داده شده است. این کار در 15 هفته (15 جلسه) تکرار شده است. مقایسه نتایج این آزمون...

Some New Bounds on the Generalization Error of Combined Classifiers

In this paper we develop the method of bounding the generalization error of a classifier in terms of its margin distribution which was introduced in the recent papers of Bartlett and Schapire, Freund, Bartlett and Lee. The theory of Gaussian and empirical processes allow us to prove the margin type inequalities for the most general functional classes, the complexity of the class being measured ...

متن کامل

ذخیره در منابع من


  با ذخیره ی این منبع در منابع من، دسترسی به آن را برای استفاده های بعدی آسان تر کنید

ژورنال

عنوان ژورنال: IEEE Transactions on Information Theory

سال: 2022

ISSN: ['0018-9448', '1557-9654']

DOI: https://doi.org/10.1109/tit.2022.3189760